150 research outputs found

    Sentiment Analysis of Movie Opinion in Twitter Using Dynamic Convolutional Neural Network Algorithm

    Get PDF
    Movie has unique characteristics. When someone writes an opinions about a movie, not only the story in the movie itself is written, but also the people involved in the movie are also written. Opinion ordinary movie written in social media primarily  twitter.To get a tendency of opinion on the movie, whether opinion is likely  positive, negative or neutral, it takes a sentiment analysis. This study aims to classify the sentiment is positive, negative and neutral from opinions Indonesian language movie and look for the accuracy, precission, recall and f-meausre of the method used is Dynamic Convolutional Neural Network. The test results on a system that is built to show that Dynamic Convolutional Neural Network algorithm provides accuracy results better than Naive Bayes method, the value of accuracy of 80,99%, the value of precission 81,00%, recall 81,00%, f-measure 79,00%   while the value of the resulting accuracy Naive Bayes amounted to 76,21%, precission 78,00%, recall 76,00%, f-measure 75,00%

    Parallelization of Hybrid Content Based and Collaborative Filtering Method in Recommendation System with Apache Spark

    Get PDF
    Collaborative Filtering as a popular method that used for recommendation system. Improvisation is done in purpose of improving the accuracy of the recommendation. A way to do this is to combine with content based method. But the hybrid method has a lack in terms of scalability. The main aim of this research is to solve problem that faced by recommendation system with hybrid collaborative filtering and content based method by applying parallelization on the Apache Spark platform.Based on the test results, the value of hybrid collaborative filtering method and content based on Apache Spark cluster with 2 node worker is 1,003 which then increased to 2,913 on cluster having 4 node worker. The speedup got more increased to 5,85 on the cluster that containing 7 node worker

    Modification of Stemming Algorithm Using A Non Deterministic Approach To Indonesian Text

    Get PDF
     Natural Language Processing is part of Artificial Intelegence that focus on language processing. One of stage in Natural Language Processing is Preprocessing. Preprocessing is the stage to prepare data before it is processed. There are many types of proccess in preprocessing, one of them is stemming. Stemming is process to find the root word from regular word. Errors when determining root words can cause misinformation. In addition, stemming process does not always produce one root word because there are several words in Indonesian that have two possibilities as root word or affixes word, e.g.the word “beruang”.To handle these problems, this study proposes a stemmer with more accurate word results by employing a non deterministic algorithm which gives more than one word candidate result. All rules are checked and the word results are kept in a candidate list. In case there are several word candidates were found, then one result will be chosen.This stemmer has been tested to 15.934 word and results in an accurate level of 93%. Therefore the stemmer can be used to detect words with more than one root word

    Klasifikasi Pola Sidik Jari Menggunakan Jaringan Syaraf Tiruan Backpropagation

    Get PDF
    Penelitian ini membahas tentang klasifikasi sidik jari, yang bertujuan untuk mengklasifikasi sidik jari manusia dalam tiga kelas yaitu: whorl, Arch, dan loop. Tahap yang dilakukan adalah preprocessing, segmentasi, ekstrasi ciri dan klasifikasi. Dalam preprocessing yang dilakukan grayscale, median filter, peregangan kontras, histogram. Segmentasi menggunakan metode otsu thresholding dan ekstrasi ciri menggunakan gray level cooccurence matrix (GLCM). Fitur yang digunakan adalah correlation, contrast, energy, homogeneity, dan entropy. Klasifikasi tersebut menggunakan jaringan syaraf tiruan backpropagation. Hasil penelitian system ini dapat mengklasifikasi sidik jari dengan akurasi 87,5%.Kata kunci: GLCM, backpropagation neural networ

    Hate Speech Detection for Indonesia Tweets Using Word Embedding And Gated Recurrent Unit

    Get PDF
    Social media has changed the people mindset to express thoughts and moods. As the activity of social media users increases, it does not rule out the possibility of crimes of spreading hate speech can spread quickly and widely. So that it is not possible to detect hate speech manually. GRU is one of the deep learning methods that has the ability to learn information relations from the previous time to the present time. In this research feature extraction used is word2vec, because it has the ability to learn semantics between words. In this research the GRU performance will be compared with other supervision methods such as support vector machine, naive bayes, decision tree and logistic regression. The results obtained show that the best accuracy is 92.96% by the GRU model with word2vec feature extraction. The use of word2vec in the comparison supervision method is not good enough from tf and tf-idf

    ZONASI DAERAH BAHAYA KEGEMPAAN DENGAN PENDEKATAN PEAK GROUND ACCELERATION (PGA)

    Get PDF
    Penelitian ini bertujuan untuk menyusun zonasi daerah bahaya kegempaan pada infrastruktur bangunan di kota Banda Aceh menggunakan pendekatan nilai peak ground acceleration (PGA) dari fungsi atenuasi global dan lokal. PGA dihitung menggunakan fungsi antenuasi yang menggambarkan korelasi antara intensitas gerakan tanah setempat, magnitude gempa dan jarak dari sumber gempa. Data yang digunakan bersumber dari katalog gempa merusak badan meteorologi, klimatologi dan geofisika rentang tahun 1973 – 2011. Metode penelitian terdiri dari enam tahapan yaitu pembuatan grid, perhitungan jarak dari sumber gempa ke centroid grid, perhitungan nilai PGA, pengembangan aplikasi komputer, ploting nilai PGA di centroid grid, dan penyusunan zona bahaya kegempaan dengan algoritma kriging. Kesimpulan penelitian adalah bahwa fungsi atenuasi global yang dikembangkan oleh Youngs et al, 1997 dapat diaplikasikan dengan baik untuk menghitung nilai PGA di Kota Banda Aceh. Kota Banda Aceh secara mikro dapat dibagi dalam dalam tiga zona bahaya kegempaan yaitu zona bahaya kegempaan rendah dengan nilai PGA 0.8767 gals hingga 0.8780 gals, zona bahaya kegempaan menengah dengan nilai PGA 0.8781 gals hingga 0.8793 dan zona bahaya kegempaan tinggi dengan nilai PGA 0.8794 gals hingga 0.8806 galsPenelitian ini bertujuan untuk menyusun zonasi daerah bahaya kegempaan pada infrastruktur bangunan di kota Banda Aceh menggunakan pendekatan nilai peak ground acceleration (PGA) dari fungsi atenuasi global dan lokal. PGA dihitung menggunakan fungsi antenuasi yang menggambarkan korelasi antara intensitas gerakan tanah setempat, magnitude gempa dan jarak dari sumber gempa. Data yang digunakan bersumber dari katalog gempa merusak badan meteorologi, klimatologi dan geofisika rentang tahun 1973 – 2011. Metode penelitian terdiri dari enam tahapan yaitu pembuatan grid, perhitungan jarak dari sumber gempa ke centroid grid, perhitungan nilai PGA, pengembangan aplikasi komputer, ploting nilai PGA di centroid grid, dan penyusunan zona bahaya kegempaan dengan algoritma kriging. Kesimpulan penelitian adalah bahwa fungsi atenuasi global yang dikembangkan oleh Youngs et al, 1997 dapat diaplikasikan dengan baik untuk menghitung nilai PGA di Kota Banda Aceh. Kota Banda Aceh secara mikro dapat dibagi dalam dalam tiga zona bahaya kegempaan yaitu zona bahaya kegempaan rendah dengan nilai PGA 0.8767 gals hingga 0.8780 gals, zona bahaya kegempaan menengah dengan nilai PGA 0.8781 gals hingga 0.8793 dan zona bahaya kegempaan tinggi dengan nilai PGA 0.8794 gals hingga 0.8806 gal

    Mobile Content Based Image Retrieval Architectures

    Get PDF
    Mobile device features such as camera and other sensors are evolving rapidly nowadays. Supported by a reliable communications network, it raises new methods in information retrieval. Mobile devices can capture an image with its camera and pass it to the retrieval systems to get the information needed. This system, called Mobile Content-Based Image Retrieval (MCBIR), generally consists of two parts: Offline Database Construction, which create image features database and indexing structure, and Online Image Search, that search images in the database that similar to the user inputs. MCBIR system, based on its computational load and resource needs, can be categorized into three architectural models: client-side, client-server and distributed. These three models were analyzed in three aspects: scalability, latency, and resources. The results show that each architecture has its own characteristics in terms of these aspects and should be considered in the architecture selection phase for MCBIR development

    A signature-based indexing method for efficient content-based retrieval of relative temporal patterns

    Get PDF

    PENGGUNAAN KNN (K-NEARST NEIGHBOR) UNTUK KLASIFIKASI TEKS BERITA YANG TAK-TERKELOMPOKKAN PADA SAAT PENGKLASTERAN OLEH STC (SUFFIX TREE CLUSTERING)

    Get PDF
    Dokumen teks yang dipublikasi di internet dari hari ke hari semakin banyak jumlahnya. Salah satu teknologi internet yang paling sering terjadi proses pemuktahiran konten dokumen teks ini, adalah microblogging yang dijadikan sebagai sarana untuk membangun komunitas di dunia maya dan penyebar informasi yang praktis dan cepat. Salah satunya adalah Twitter yang merupakan salah satu social media dengan jumlah tweet yang dipublikasi dalam hitungan jam oleh para pemilik akun tersebut, khususnya para jurnalis. Berita-berita yang dipublikasi oleh para jurnalis melaui Twitter terkadang kurang nyaman untuk dibaca oleh para pembaca berita. Karena berita-berita tersebut ditampilkan secara tersusun beruntun ke bawah pada halaman web tersebut. Tetapi setelah tweet-tweet yang ada dikelompokkan secara tematik jadi semakin menarik karena pembaca dapat memilih berita-berita tertentu yang telah dikelompokkan oleh Algoritma Suffix Tree Clustering (STC). Tetapi pada algoritma ini, masih tetap menghasilkan dokumen-dokumen yang tidak memiliki kelompok. Pada Penelitian ini, dokumen-dokumen tersebut mencoba untuk di klasifikasikan ke dalam kelompok yang ada dengan menggunakan Algoritma K-Nearset Neighbor (KNN)
    corecore